首页 >> 信息动态

    ChatGPT与学术出版

    一、GPT-3与未来的出版和学术网络研讨会,将于2023年3月8日召开

    作者:STM协会

    信息来源:https://www.stm-assoc.org/events/gpt-3-and-the-future-of-publishing-academia-webinar/?

    很少有人会错过最近推出的ChatGPT。GPT-3是迄今为止最强大的语言处理人工智能模型之一(拥有1750亿个参数),它产生了令人惊讶的类似人类的文本,即使不是毫无可能,将其与人类产生的信息区分开来也很难。

    这种强大的技术迫使我们考虑一些基本问题。下一代人工智能给研究人员和出版商以及不良行为者(如论文工厂)带来了什么机会?一般来说,这对学术工作意味着什么?在本次网络研讨会中,我们将从“技术、出版和学术”三个方面听取观点。

    (1)报告题目:What is GPT-3 and what can and can’t it do?

    什么是GPT-3,它能做什么,不能做什么?

    报告专家:Phill Jones, Digital and Technology Lead, More Brains Consultancy

    (2)报告题目:Advanced AI: Threats and opportunities for publishers

    高级人工智能:出版商面临的威胁和机遇

    报告专家:Henning Schoenenberger, VP Content Innovation, Springer Nature

    (3)报告题目:GPT-3 and what it means for academia

    GPT-3及其对学术界的意义

    报告专家:Anna Kende, Professor of Social Psychology, ELTE University, Budapest, Hungary

    报告时间:9th March 2023, 9 am - 10:30 am EST, 2 pm - 3:30 pm GMT, 3 pm - 4:30 pm CET(2023年3月8日,北京时间 8 pm - 9:30 pm)

    注册网址:https://www.stm-assoc.org/events/gpt-3-and-the-future-of-publishing-academia-webinar/?register (免注册费)


    二、当ChatGPT杀入学术出版领域,有人开始围堵,有人悄悄地打开大门

    作者:张钟鑫(编译)

    信息来源:深究科学

    https://mp.weixin.qq.com/s/6h4uWsxgKDohqbN3rHHsJg

    导读

    最近,智能聊天机器人ChatGPT火到了天际。

    它能够通过学习和理解人类的语言来进行对话,还能根据聊天内容的上下文进行互动,像人一样来沟通交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。

    除此之外,它还能生产类似论文这样的高度浓缩人类智慧的作品。

    目前,全球不少学术期刊出版社明令禁止或者限制其下的作者使用ChatGPT。这是由于机器人撰稿本质是“模仿”,信息的来源依赖互联网上的已有信息,整合后生成可读性高的文章。

    出版社十分担忧——使用ChatGPT可能会造成新闻的不实报道,或者出现抄袭他人学术作品的现象,所以对其明令禁止。

    也有出版商开始默认ChatGPT的存在,因为不管怎样“围追堵截”,它已经在改变人类社会方方面面。

    最近,它在学术出版领域也引起了血雨腥风,一度让很多期刊将它拒之门外。全球顶尖科学期刊《科学》明确表示,禁止在提交的论文中使用任何聊天机器人项目所编撰的文本。

    尽管ChatGPT遭到业界大佬的“封杀令”,但却有更多的学者对它的智能产生了浓厚的兴趣。

    此前,《金融研究快报》上就刊登了一篇有关ChatGPT的研究报告。报告显示它可以独立撰写出一篇金融论文,并且论文内容能被相关的学术期刊所接受。

    许多学者提出,学术出版商不应将ChatGPT视为威胁,可以通过“改造”物尽其用,把它当作一种低成本甚至免费的电子编写助手。


    01 人机结合,让学术研究锦上添花

    在传统的论文撰写过程中,通常会有四个阶段:理论研究、文献综述、数据收集以及测试评估。研究人员于是基于此,对ChatGPT编写程序进行改造:

    第一阶段,理论研究时,ChatGPT指定的一些宽泛主题撰写初稿;

    第二阶段,研究人员在编写程序中添加了不到200份与所给话题相关的现有研究摘要,要求ChatGPT在撰稿时参考这些文献;

    第三阶段,收集数据时,研究人员会添加“领域专业知识”,让论文信源更加可靠;

    第四阶段,研究人员阅读计算机程序生成的内容,再给出改进建议。

    之后进入测试评估环节,人机结合的文章会由32名专业的评审人员进行审核,判断其内容的准确性和新颖性,以及是否达到学术期刊发表标准。

    最后,专家评审员普遍认为最后的研究成果都是可以被学界所认同的。这无疑是个重磅消息:使用ChatGPT能够产生高质量的学术研究内容。


    02 ChatGPT撰写的论文有优劣之分

    当然,人机结合的文章并非完美无瑕。

    《金融研究快报》刊登的这项研究结果也反映出ChatGPT存在一些潜在的缺陷。专家评审对ChatGPT作品研究的四个阶段给出了不同的评分。

    理论研究和数据收集这两个阶段往往广受好评,而文献综述和测试评估则评分较低,但仍在学术可接受的范围之内。

    对此,研究人员猜测,这是由于ChatGPT更擅长直接识别和采集外部文本的信息。当编写程序任务更复杂时,它对信息的处理就不会像真人思维那么灵活,而文献综述和测试评估往往属于这一类。

    所以加入人工对专业领域的知识输出,能够帮助ChatGPT机器人更进一步。换句话说,人类可结合ChatGPT的优势,让论文的产出更高效和便捷。


    03 学术伦理仍旧是个大问题

    ChatGPT是一种工具,即使不需要学者输出专业的知识,它也能产生看似合理的内容。而人机结合,则能生成一篇专业性更高的文章。

    但问题又回到了起点,人机结合的文献就能完全保证所有信源的可靠性吗?

    学术诚信问题在业内已经是一个热门且紧迫的问题,业界一家知名的学术打假网站Retraction Watch就报道了许多学术造假的负面事例。

    而ChatGPT智能软件的出现和应用会让科研诚信变得更糟吗?答案是有可能的。

    但也不能一概而论,或许在专业研究人员的监管下这项技术可以变得更好。AI产物发展迅猛,但同时也会带来新的问题,对于创造力的概念界定和创造性想法所产生的知识产权界定会变得更加模糊,这个问题目前也还没有专家能给出确切的答案。

    ChatGPT的出现,对于那些缺乏传统人力研究援助资金的研究人员群体来说,比如新兴经济研究人员、研究生和早期职业研究人员等,也许是雪中送炭。

    有关ChatGPT等新兴AI产物的伦理界定,也会随着科学技术的发展不断完善。


    三、复印资料《学术出版》特刊:出版界对ChatGPT的回应

    信息来源:期刊观察

    https://mp.weixin.qq.com/s/v_AGh9tuLx2wiPGg5jnaCg

    编者按:

    人工智能(AI)自然语言处理程序(NLP)可能很快将被用于广泛的写作,甚至于学术论文的生产。虽然计算机程序(如 Microsoft WORD 和 Grammarly)已经包含自动文本编辑功能(如拼写、语法检查),但这些程序并不是为创造内容而设计。新兴的自然语言处理程序的出现,给科研伦理和诚信提出了崭新的课题。

    近几天我们可以看到学术出版界正在密集回应ChatGPT带来的挑战。这款程序比之前的人工智能自然语言处理程序都显得更加“智能”。它可以自动生成相当多让人难以识别是AI还是人类写作的文章,甚至于生成学术论文。学术出版界到底怎么看待这一课题?我们摘取了部分代表性期刊的社论,总结它们对这一现象的回应,以供中文学术出版界参考。

    本次特刊,我们将其命名于“学术出版界对ChatGPT的回应”,立场中立,既有温和的回应,也有严厉的回应。以下是具体的内容:


    1. 利用人工智能撰写学术出版物(Using AI to write scholarly publications)

    作者:Mohammad Hosseini;Lisa M. Rasmussen;David B. Resnik

    来源:《科研责任:伦理、诚信和政策》(Accountability in Research: Ethics, Integrity and Policy) 2023年2月网络首发文章

    文章摘要:

    • NLP 提出了一些非常有趣的哲学问题: 它们是智能的吗? 就人类智力而言,这意味着什么?它们能思考吗?它们有道德行为能力吗?此外,NLP 可能有助于非英语母语者的科研人员重写手稿。然而,这些 NLP 的使用将挑战我们目前对原创性和/或作者对写作的智力贡献。这些都是哲学家、计算机科学家和科学社会学家需要思考的重要问题。
    • NLP会引起问责问题。如果由 NLP 撰写的文章中某一部分包含错误或偏见,合著者需要对其准确性、说服力和完整性负责。我们相信作者最终要对 NLP 生成的文本负责,并且必须对手稿中的不准确、谬误或任何其他问题负责。我们之所以采取这种立场,是因为:1.NLP对研究人员提供的指令作出反应,而不主动生成文本;2.作者可以将NLP生成的文本与其他文本(例如,他们自己写作的文本)并列;3.无论如何,作者都会因为生成文本获得荣誉。
    • 所有向《科研责任》提交稿件的作者必须披露、描述NLP 在撰写文本或产生文本过程中的角色,并接受对文本的事实、引用准确性,数学、逻辑和因果推理以及原创性的全部责任。
    • 作者应该具体说明: 1.谁使用了程序;2.使用的时间和日期;3.用于生成文本的提示;4. 包含文本的章节;5. 论文中因使用NLP而产生的观点。此外,NLP 生成的文本应作为补充材料提交。举例: 在写这份手稿时,2022年12月9日下午1时21分,M.H. 使用 OpenAI 聊天机器人。引言部分使用了以下提示语: “写一篇300字的文章,阐述研究伦理和研究诚信之间的区别。”
    • 《科研责任》鼓励其他期刊的编辑考虑在研究中采用人工智能的政策,因为这种技术的迅速发展不可预测。未来,人工智能在研究中的应用可能会引发作者署名权问题,但这一天还没有到来,因为今天的计算机系统不具备被认可为拥有作者权利和责任的人。


    2. ChatGPT有趣但并不是一个作者(ChatGPT is fun, but not an author)

    作者:H. Holden Thorp

    来源:《科学》(Science) 2023年1月网络首发文章

    文章摘要:

    • 更令人担忧的是ChatGPT对撰写科学论文的影响。在最近的一项研究中,由ChatGPT创建的摘要被提交给同行评议人员,他们只发现了63%的假摘要。
    • 多年来,《科学》的作者们签署了一份许可协议,证明“该作品是原创的”。对于《科学》而言,“原创”这个词足以表明 ChatGPT 生成的文本不可接受。不过,我们现在正在更新我们的许可协议和编辑策略,以确定由 ChatGPT (或任何其他人工智能工具)生成的文本不能在论文中使用。图形、图像也不能。AI不能成为作者。违反这些政策将构成学术不端行为,与篡改图像或剽窃没有区别。
    • 科学记录最终是人类为解决重要问题所做的努力之一。机器发挥着重要的作用,但只是作为人类提出假设、设计实验和理解结果的工具。最终,论文必须来自于我们头脑中那台奇妙的计算机,并由它来输出。


    3. ChatGPT等工具正在对科学透明度产生威胁(Tools such as ChatGPT threaten transparent science)

    作者:H. Holden Thorp

    来源:《自然》(Nature) 2023年1月网络首发文章

    文章摘要:

    • 首先,没有大型语言模型(LLM)工具将被接受作为一个论文的作者。这是因为任何作者的归属都伴随着对工作的责任,而 AI 工具不能承担这种责任。
    • 其次,使用LLM工具的研究人员应该在方法或致谢部分声明。如果论文不包括这些部分,可以用导言或其他适当的部分来记录LLM的使用情况。
    • 编辑和出版商能否检测到LLM产生的文本?答案是 “也许”。检查ChatGPT的原始输出是可以发现的,特别是当涉及到几个段落,并且主题与学术工作有关时。他们的输出可能看起来平淡无奇,或者包含简单的错误。此外,他们还不能通过引用文献来记录他们的输出。
    • 但在未来,人工智能研究人员可能会绕过这些问题——例如,已经有一些实验将聊天机器人与文献引用工具联系起来,还有一些实验在专门的学术文本上训练聊天机器人。
    • 长久以来,无论何种技术流行,科学的运作都是方法和证据的公开。研究人员应该扪心自问,如果他们或他们的同事使用的软件从根本上说是不透明的,那么知识生产过程所依赖的透明度和信任度何以得到维持。
    • 这就是为什么《自然》要制定这些原则:最终,学术研究必须在方法上具备透明度,且作者需要诚信和真实。这是科学赖以进步的基础。


    4. ChatGPT和医学写作的未来(ChatGPT and the future of medical writing)

    作者:Som Biswas

    来源:《放射学》(Radiology) 2023年1月网络首发文章

    文章摘要:

    在写作过程中使用ChatGPT或其他人工智能驱动的语言模型会产生一些担忧:

    • 伦理问题。在写作中使用人工智能会引起对作者身份和内容责任的担忧。虽然ChatGPT生成的文章抄袭较少,但也不是完全没有抄袭,需要人类作者的编辑。
    • 法律问题。在使用ChatGPT或其他AI驱动的语言模型时,有几个法律问题需要考虑:
                  1) 版权。当人工智能生成的文本被用于商业目的时,必须确保人工智能生成文本的使用不侵犯任何现有的版权。
                  2) 合规。在某些领域,如医疗保健和法律,使用人工智能生成的文本可能会受到法规的约束,但是目前没有关于在医学文献中使用人工智能的法律。
                  3) 医学-法律问题;提供病人的医疗记录文件,包括由人工智能创建的放射学报告,可能会导致错误,从而引起诉讼。有关这些报告的责任问题将随之产生。
    • 创新。由于ChatGPT是基于已有的数据,最终会导致重复的文本生成和创造力缺乏。在世界各地的医学院和大学中,简单的自动文本生成也可能降低学生对课程作业的参与度。
    • 准确性。有人担心人工智能生成的文本可能不准确或包含错误。当前版本的ChatGPT不提供任何内容准确性的评估。
    • 偏见:人工智能模型在大量的数据上训练出来,其中可能包括偏见。因此,人们担心人工智能生成的文本可能会延续或放大偏见。
    • 透明度。在写作过程中使用人工智能,并识别由机器生成的文本,这一点应该挑明。

    总的来说,虽然像ChatGPT这样由人工智能驱动的语言模型,是强大的工具,可以协助人类完成一些任务。然而,我们应当考虑在写作过程中使用人工智能的局限性和潜在风险。


    四、Chat GPT爆红:对话式AI能为出版业带来哪些新价值?

    信息来源:E出版

    https://mp.weixin.qq.com/s/qNhwo0R3DaUZKFwp4ZlqiA

    将人工智能(Artificial Intelligence,AI)技术应用于出版业已不是新鲜事,聊天机器人(也称对话式AI)也在新闻出版领域也有了一定的应用成果。例如,BBC是最早使用聊天机器人的新闻平台之一,通过发布聊天机器人,使用户能够按照自己的阅读节奏与提问方式来了解复杂新闻。但受制于技术水平、版权规定等因素,聊天机器人在出版业的应用并没有像元宇宙、NFT等那样亮眼、受人关注。

    近期一款名为「Chat GPT」的聊天机器人横空出世并火爆全网,发布不到一周就突破了 100 万用户,YouTube上讨论Chat GPT的新视频层出不穷,单视频浏览量可达几十万次;该词条的微信搜索指数也在12月上旬暴涨,最高指数达到 8480659。这次的聊天机器人与之前的产品有什么不同?它能带给出版业新的价值吗?带来的新价值又能体现在哪些方面?

    1、什么是Chat GPT

    Chat GPT的概念与功能

    Chat GPT是一款聊天机器人,被称为「 2022 年最先进的人工智能聊天机器人」。Chat GPT知识储备丰富,精通学科门类众多,它可以根据用户提出的问题生成拟人式的回答,让用户感到仿佛在与真人对话。

    技术层面而言,Chat GPT是基于聊天的生成式预训练转化器(Generative Pre-Trained Transformer),是OpenAI开发的一个最先进的自然语言处理(NLP)模型,属于流行的GPT-3模型(Generative Pretrained Transformer 3)的一个变体,可用于文本生成、语言翻译等自然语言处理任务。Chat GPT采用深度学习方法(deep learning),从网络上获取大量文本数据进行训练,其训练数据最新年限为 2021 年,数据规模达数千亿字。Chat GPT可广泛应用于自然语言处理任务,其应用包括但不限于:文本生成、语言翻译、文本摘要、情感分析。


    Chat GPT为何爆红

    事实上,水平高功能强的聊天机器人并不是第一次出现。之前的GPT-3模型所提供的文本响应已经具有足够高的拟人程度。然而OpenAI于今年 11 月 30 日发布的Chat GPT精度更上一层楼,功能也更加强大,并且开放免费试用渠道。根据网友们的测试与反馈,Chat GPT能够流畅地回应各种问题,不仅能写文章、翻译、做摘要,还能够求解数学方程式、检查和调整代码、解释事物(包括代码)的具体内涵。硅谷公司 Box 的首席执行官Aaron Levie认为,拥有了Chat GPT就拥有了「一台通过人类的理解方式回答任何问题的计算机」。


    2、Chat GPT带给出版业哪些新价值

    Chat GPT强大的功能与便捷的可交互操作使得金融、互联网、文化等行业开始探求如何将AI科技应用到行业生产中并最大化其技术价值。Chat GPT作为目前最先进的自然语言处理模型,其为出版业进一步的创新发展也带来了无限可能。


    媒介价值:提供补偿

    补偿性媒介(Remedial Medium)由美国著名学者保罗·莱文森提出,认为补偿性媒介是对过去某一种媒介功能不足的补充,在人对技术进行理性选择的过程更迭中,媒介应随之改进而变得愈发人性化。Chat GPT作为聊天机器人,其主要功能就是根据用户提供的内容给予高精度、高流畅的文本响应,从而模拟从「人-机」到 「人-人」的对话的情景。其「文本响应」的过程可以看作「模拟人」充当信息媒介向「人」传递经过AI处理过的文本信息。在信传递的过程中,Chat GPT更多充当了「补偿媒介」的角色。

    Chat GPT作为补偿媒介在出版业的应用中主要有两处亮点

    ① 补偿信息分发过程

    如今出版业的数字化程度不断加深,从印刷到数字的加速转变也为出版商带来扩展读者群、留存读者的新挑战。很多平台通过算法推荐对某一类人推送可能感兴趣的内容,从而实现个性化内容推荐。与这种算法向某一类群体推送的信息分发模式不同,Chat GPT是针对用户个体开展信息分发的过程,依据用户提供的文本信息进行响应。其反馈内容很大程度上取决于用户自身的提问和语言描述所提供的信息,是以用户为核心的个性化信息分发与内容创造工具。

    Chat GPT背靠海量数据训练成果,体现出优秀的适应性与出色的对话响应能力。在对话中,读者能够得到足够精准且流畅的回答,其使用需求与期望在AI对话中得到满足。出版商若恰当使用该技术,便能从很大程度上增加读者在平台上的留存时间,提高读者粘性。不仅如此,Chat GPT还能够通过分析读者阅读习惯、阅读要求等,通过对话的方式对内容进行个性化解剖,帮助读者理解庞大、复杂的故事结构,从而提高阅读效率与读者的阅读体验感。

    ② 补偿读者内心情感

    与其他AI相比,Chat GPT还能通过高度拟人的对话响应给予读者「人本主义」层面的补偿。该聊天机器人核心功能之一是情感分析,可以对给定文本的语气、情感进行检测,并以与人类高度相似的知识理解水平与语言表达反馈。与Chat GPT对话,就像和一位知心的朋友对话。这种人为尺度的「人本主义」AI对话环境,给读者在使用出版产品的过程中更加引人入胜的体验;聊天、对话这种轻松的交互方式也能使读者放下戒备、情感流露。


    交互价值:搭建桥梁

    Chat GPT功能的实现路径是对话交互。Chat GPT的搭建基于GPT-3架构,该架构是一种多层互联节点组成的神经网络,能够处理输入文本中的远程依赖关系。这意味着,Chat GPT的对话响应不仅针对于最新一条的文本提示,还会自动结合之前用户输入的信息,从而提供更符合用户要求与期望的回答。高度的交互性意味着,若将Chat GPT的模型应用于出版业,对提升作者、读者、出版商的交互体验都大有裨益。

    就与作者的交互而言,Chat GPT能够充当作者的创作伙伴。聊天机器人能为作者提供新的灵感窗口,帮助作者度过难熬的的创作瓶颈期。作者可以通过聊天对话的形式与Chat GPT进行互动,Chat GPT也能根据其大数据训练的结果,提供读者画像,帮助作者更好理解其作品的目标受众,为作者提供灵感。

    就与读者的交互而言, Chat GPT能够充当读者的阅读助手。Chat GPT身为自然语言处理能手,不仅能够按照读者要求对文本进行分析,从而帮助读者更快、更加精准地找到或生成自己想要的内容;它还可以利用其分析文本情感与上下文依赖关系的本领,帮助读者理解文本。同时,Chat GPT能够用类人程度高的语句风格回复交流,交互方式简单,交互情景直观,读者交互成本低,获得感强。

    就与出版商的交互而言,Chat GPT能够充当出版商的智能客服。招聘真人聊天客户往往会遇到人工成本高、无法 24 小时在线、无法即刻回应等问题。Chat GPT作为聊天机器人则能完美解决这些问题。Chat GPT不仅能做到 24 小时即刻回复,其强大的解决问题的能力还能最大限度上解决读者问题,满足读者期待,为读者带来更加便捷、舒适的客户服务体验。同时,Chat GPT还能够搜集读者提问信息与反馈满意度,将处理结果反馈给出版商后台,帮助其升级更加智能、高性价比的客服服务。


    营销价值:挖掘机遇

    Chat GPT对出版商来说也是很好的营销工具。Chat GPT能够利用其千亿字数量级的数据训练成果,分析出版商面向用户的偏好、广告与营销活动的投放效果,帮助出版商低成本获得营销方案的最优解,实现精简有效的营销。

    出版商还可以通过对话的方式,输入营销与推广的需求,借助Chat GPT生成个性推广文案,提高自身关注度。Chat GPT在国内外已经收割了相当规模的流量,收获了一定的热度和良好口碑,因此出版商还能够将其作为引流工具,增加自身品牌、产品的曝光度。

    Chat GPT强大的问答服务与文本分析能力还能帮助出版商实现搜索引擎优化(SEO)。Chat GPT能够很好分析一段文本的内容的关键词,这些关键字能够用于搜索引擎营销、电子商务平台等;还可以帮助出版商提取出版物的重要元数据,例如标题、类别与其他重要的语义元素,从而增加读者在网络上发现该出版物的可能。


    3、反思与展望

    然而,Chat GPT并非是完美无缺的,将对话式AI应用到出版业的运作过程也并非一蹴而就。Chat GPT属于机器学习模型,模型响应的质量和准确性取决于其训练数据的多样性与质量。目前该模型最显而易见的弊端之一,就是仅能依靠 2021 年之前的数据进行响应。但如今每一秒数据都在膨胀式地增多,Chat GPT的训练数据目前无法做到实时更新,因此其具有一定的滞后性。

    Chat GPT仍然无法与人类的智慧比拟,其理解仍然是有限的、带有偏见的。它无法对深刻问题背后的内在逻辑进行推理,对抽象问题也很难做到充分理解。而出版物往往是人类智慧的结晶,是知识密集型产物,Chat GPT在理解不同类型的出版物方面无法做到一致的优秀。

    我们还需警惕技术带给人类的驯化作用。用户虽然是与机器人进行主动对话,但在使用它的那一瞬起,用户自身即被限定在这个问答的框架之内,用户的提问、反馈都需要符合Chat GPT的程式设计要求。机器人的训练数据量庞大但仍然有限,因此用户在与机器人的一问、一答中会无意识地构建出隐形的信息茧房。在使用Chat GPT,我们应该在AI的创造与使用中不断加之人性中的理性思考与选择,不断改进让其更好为人类服务。出版商也应思考,将对话式AI应用到出版业需要对模型进行必要的修饰与调整,例如增强特定类型的文本训练、加入版权识别机制等等。


    参考文献:

    [1] WHAT IS CHAT GPT [EB/OL]. https://portfolio.newschool.edu/literature/2022/12/08/what-is-chat-gpt/,2022-12-08.

    [2]天下杂志. Chat GPT是什么?6个关键问题一次看[EB/OL]. https://www.cw.com.tw/article/5123907,2022-12-08.

    [3]CHATGPTPRO. ChatGPT: The Most Advanced AI Chatbot in 2022[EB/OL]. https://chatgpt.pro/,2022-12-16.

    [4]JAMES NGUYEN. How AI will change the business of publishing[EB/OL]. https://technode.global/2022/09/27/how-ai-will-change-the-business-of-publishing/,2022-09-27.

    [5]Zul M. How Do Publishers Use AI? 27 Fascinating Ways[EB/OL]. https://publishingstate.com/how-do-publishers-use-ai-publishing/2021/#14_AI_chatbots_for_customer_service,2021-10-03.

    [6]SnatchBot. Chatbots in publishing and marketing books[EB/OL]. https://zh.snatchbot.me/blog/126/chatbots-in-publishing-and-marketing-books,2020-03-03.

    [7] Amala Justy. Personalized Reader Experience Using Chatbots In Digital Publishing[EB/OL]. https://www.quintype.com/blog/industry/personalized-reader-experience-using-chatbots-in-digital-publishing,2022-05-16.

    [8] RICARDO BILTON. With in-article chat bots, BBC is experimenting with new ways to introduce readers to complex topic EB/OL]. shttps://www.niemanlab.org/2018/02/with-in-article-chat-bots-bbc-is-experimenting-with-new-ways-to-introduce-readers-to-complex-topics/,2018-02-23

    [9] 张悦.与编辑对话:从《纽约时报》的新闻聊天机器人看数字新闻业的演进——基于补偿性媒介理论视角[J].科技传播,2022,14(14):111-113.DOI:10.16607/j.cnki.1674-6708.2022.14.022.

    [10] 杨扬,张虹.智能聊天机器人技术在出版业的创新应用及发展趋势[J].出版科学,2020,28(01):81-86.DOI:10.13363/j.publishingjournal.2020.01.013.


    五、ChatGPT可以是“作者”?《科学》等学术期刊发投稿禁令

    作者:李永博 信息来源:文化客厅

    https://mp.weixin.qq.com/s/kU0_5GKCqTyGuTDDzbwvzA

    最近,ChatGPT火爆全网。2022年末, ChatGPT(人工智能聊天机器人)的问世,不仅在人工智能领域产生了轰动性效应,而且对教育和学术领域的传统模式提出了挑战。目前,《科学》《自然》《肿瘤学》等多家科学期刊发表声明,不接受论文将ChatGPT列为“合著者”。

    ChatGPT 是一种大型语言模型 (LLM),由知名的人工智能研究实验室OpenAI在2022年11月30日发布,它通过模仿从互联网整理的庞大文本数据库中的语言统计模式来生成令人信服的句子。 相比于传统的语言机器人,ChatGPT能够通过学习人类的语言来进行对话,理解聊天的上下文语境,并且使用更接近人类日常的语言做出回应。除了聊天机器人的功能以外,ChatGPT甚至能完成撰写邮件、视频脚本、翻译、代码,甚至写小说、做考试题和撰写学术论文。ChatGPT在开放后引发了人工智能圈的轰动,短短几天时间内就吸引了几百万人的注册,被不少人誉为“有史以来最智能的聊天机器人”。 另一方面,ChatGPT对教育界和学术界造成了重大的冲击。人工智能不仅能够通过大学和专业资格考试,还能撰写专业性极高的学术论文,这些由人工智能生成的论文甚至连专业研究者也无法轻易分辨出来。当期刊编辑、研究人员和出版商ChatGPT仍在争论在文献发表中的恰当位置时,ChatGPT 已经在学术文献中正式亮相。据《自然》杂志网站报道,至少有4份已发表和预印本上的论文使用了ChatGPT作为论文的“合著者”。

    目前,多家学术期刊发表声明,完全禁止或严格限制使用ChatGPT等人工智能机器人撰写学术论文。《自然》日前发表文章,明确了学术论文中使用人工智能写作工具的规定,其中列出两项原则:第一、任何大型语言模型工具(比如ChatGPT)都不能成为论文作者;第二、如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。

    《科学》杂志不接受使用ChatGPT生成的投稿论文,同时不允许ChatGPT作为论文合著者。《细胞》和《柳叶刀》则表示论文作者不能使用人工智能工具取代自己完成关键性任务,作者还必须在论文中详细解释他们是如何使用这些人工智能工具的。

    学术工作者普遍认为,ChatGPT等人工智能工具很有趣,但它们距离真正的学术写作和科学研究还很远。《科学》杂志网站近日发表的社论文章称,正如工具开发者所述,“ChatGPT 有时会写出看似合理但不正确或荒谬的答案。”比如,引用一项不存在的科学研究导致最后的结论发生偏差,这对于追求准确性的科学研究来说是致命性的。此外,论文作者在发表作品时,都必须声明自己的作品是“原创”的,这就意味着使用ChatGPT编写和生成文本是完全不可接受的,这种行为其实剽窃了其他人的知识成果。

    人工智能生成的内容还会引发一个更严重的问题:谁来对这些内容负责?通常而言,论文作者应对文章的观点和内容负责,但人工智能显然无法承担论文过程中出现谬误甚至造假承担责任。这也是目前大多数学术期刊和出版商“封杀”ChatGPT的主要理由之一。

    也有一些观察人士指出,ChatGPT等人工智能工具的出现,一定程度上能够倒逼学术界和教育界对传统的运作模式进行变革。《自然》杂志网站先前发表的一篇文章提到,如果学生们开始使用ChatGPT,这不仅是“外包”了他们的论文写作,还会“外包”他们的思维。ChatGPT的出现可能会让教师减少让学生回答一些普通的问答题,更注重于培养学生的批判性思维。在论文写作上,学术工作者应该减少无意义的内容堆砌,生产真正有价值的学术研究成果。


    参考资料:

    (1)ChatGPT is fun, but not an author

    https://www.science.org/doi/10.1126/science.adg7879

    (2)ChatGPT listed as author on research papers: many scientists disapprove

    https://www.nature.com/articles/d41586-023-00107-z

    (3)Tools such as ChatGPT threaten transparent science; here are our ground rules for their use https://www.nature.com/articles/d41586-023-00191-1


    六、arXiv正式规定:预印本不允许以ChatGPT等工具为作者

    信息来源:机器之心

    https://mp.weixin.qq.com/s/CxKurtKwgC7r5yG_Iv1XOQ

    ChatGPT,这款近期发布的文本生成工具,已经在研究界引起了热烈的讨论。它能写出学生作文、总结研究论文、回答问题、生成可用的计算机代码,甚至足以通过医学考试、MBA 考试、司法考试……

    其中一个关键的问题是:ChatGPT 可以被命名为研究论文的作者吗?

    现在,来自全球最大预印本发布平台 arXiv 官方的明确回答是:「不能」。


    AI 没有署名权

    在 ChatGPT 之前,研究者们早就在使用聊天机器人作为研究助手,帮助组织自己的思维,生成对自身工作的反馈,协助编写代码以及对研究文献进行摘要。

    这些辅助工作似乎可以被认可,但说到「署名」,又完全是另外一回事。「显然,一个计算机程序不能为一篇论文的内容负责。它也不能同意 arXiv 的条款和条件。」

    有一些预印本和已发表的文章已经将正式的作者身份赋予 ChatGPT。为了解决这个问题,arXiv 为作者采用了一项关于使用生成式 AI 语言工具的新政策。

    官方声明如下:

    arXiv 认识到,科学工作者使用各种工具来进行他们所报告的科学工作以及准备报告本身,包括从简单的工具到非常复杂的工具。

    社区对这些工具的适当性的看法可能是不同的,而且在不断变化;人工智能驱动的语言工具引发了重点的辩论。我们注意到,工具可能会产生有用和有帮助的结果,但也可能产生错误或误导性的结果;因此,了解使用了哪些工具与评估和解释科学作品有关。

    基于此,arXiv 决定:

    1. 继续要求作者在他们的工作中报告任何复杂工具的使用情况,如仪器和软件;我们现在特别将「文本到文本的生成式人工智能」包含在应报告的符合方法论主题标准的工具中。

    2. 提醒所有同事,只要在论文中签上自己的名字,他们每个人都要对论文的所有内容承担全部责任,无论这些内容是如何产生的。如果生成式人工智能语言工具产生了不恰当的语言、抄袭的内容、错误的内容、不正确的参考文献或误导性的内容,并且该输出被纳入科学成果中,这就是作者的责任。

    3. 生成式人工智能语言工具不应该被列为作者,可参考 1。


    「规则」的意义

    几天前,《自然》杂志就公开表示,已经与所有 Springer Nature 期刊共同制定了两条原则,并且这些原则已被添加到现有的作者指南中:

    首先,任何大型语言模型工具都不会被接受作为研究论文的署名作者。这是因为任何作者的归属权都伴随着对工作的责任,而 AI 工具不能承担这种责任。

    第二,使用大型语言模型工具的研究人员应该在方法或致谢部分记录这种使用。如果论文不包括这些部分,可以用引言或其他适当的部分来记录对大型语言模型的使用。

    这些规定和 arXiv 最新发布的原则十分相似,看起来,学术出版领域的组织们似乎达成了某种共识。

    ChatGPT 的能力纵然强大,但其在学校作业、论文发表等领域的滥用已经引发了人们广泛的担忧。

    机器学习会议 ICML 就表示过:「ChatGPT 接受公共数据的训练,这些数据通常是在未经同意的情况下收集的,这会带来一系列的责任归属问题。」

    因此,学界开始探索检测 ChatGPT 等大型语言模型(LLM)生成文本的方法和工具。未来,检测内容是否由 AI 生成或许将成为「审稿中的重要一环」。

    参考链接:https://blog.arxiv.org/2023/01/31/arxiv-announces-new-policy-on-chatgpt-and-similar-tools/


    发布日期: 2023-02-09 浏览: 3773